ICML 2025 何恺明团队提出高度压缩的Tokenizer可直接用于图像生成 传统的图像生成流程包含两个主要组成部分:一个将图像压缩为潜在表示的标记器(tokenizer),以及一个学习生成新标记序列的生成模型。这篇由麻省理工学院和Meta FAIR的Beyer等人撰写的论文挑战了这一范式,通过证明高度压缩的一维标记器无需单独训练的生成 图像 icml token 何恺 tokenizer 2025-09-03 07:08 3